CYBERNÉTIQUE - Signification

CYBERNÉTIQUE - Signification
CYBERNÉTIQUE - Signification

Pour caractériser l’apparition des machines à information, N. Wiener a parlé d’une seconde révolution industrielle. L’application à grande échelle des ressources offertes par le traitement scientifique de l’information apporte, en effet, de grands bouleversements dans la vie sociale et ouvre d’immenses perspectives.

Les performances de ces machines éveillent chez certains une sourde inquiétude. On en vient à se demander si l’homme ne finira pas par se rendre entièrement dépendant de ses machines. Cette crainte a déjà été formulée de la manière la plus explicite au siècle dernier par Samuel Butler, dans un roman du genre «utopie» qui a été traduit en français sous le titre Erewhon ou De l’autre côté des montagnes.

Mais il y a plus: la cybernétique semble mettre en cause à la fois l’action humaine et la pensée. Si les automates peuvent imiter les actions humaines et cela même, dans certains cas, avec une efficacité supérieure, ne doit-on pas en conclure que les actions humaines, en définitive, se réduisent à des opérations du même type que celles dont des automates nous donnent des illustrations concrètes? Il y a peut-être dans l’action un aspect intuitif, selon lequel elle se comprend elle-même et comprend en elle la réalité à laquelle elle s’applique, et un aspect opératif, qui correspond au moment de l’efficacité. La leçon de la cybernétique, c’est que l’aspect intuitif peut être progressivement éliminé au profit du seul aspect opératif. Plus les machines remplaceront l’action humaine, plus celle-ci sera amenée à se redéfinir en fonction des machines. L’homme devra s’adapter à la machine ou périr, comme hier il devait s’adapter à la nature ou périr. Par ailleurs, comme les machines calculatrices paraissent imiter les opérations de la pensée, on en vient à s’interroger sur ce qui fait la spécificité de celle-ci.

Pourtant, la cybernétique ne nous conduit pas du tout à assimiler l’homme à la machine; mais elle entraîne une réorganisation du champ de l’action. Grâce aux systèmes cybernétiques, qui ne font que prolonger ses propres systèmes internes de régulation, l’homme est amené à insérer son action dans une totalité plus complexe; il devient ainsi capable d’ajuster son comportement d’une manière plus fine à des situations plus compliquées. L’avènement de la cybernétique a donc pour signification d’accroître la maîtrise de l’homme sur son comportement. En ce sens, elle va bien dans le sens de ce qu’exige la vie libre.

1. Bouleversement de la structuration sociale

Le transport de l’information

Les systèmes complexes et diversifiés qui permettent le transport quasi instantané de grandes quantités d’information d’un point à l’autre du globe ont déjà contribué à un changement profond des mentalités et des cultures. Le champ de ce qui est accessible à la conscience s’étend de plus en plus et une certaine unification s’opère dans les contenus de représentation. Mais en même temps une distance de plus en plus grande se creuse entre l’ensemble des événements et des situations par lesquels l’individu peut se sentir affecté (à travers les nouvelles et les images) et le domaine dans lequel s’exerce son action réelle. Il peut en résulter soit un sentiment d’impuissance et de fatalité, soit la recherche d’actions de type symbolique destinées à combler, au moins de façon imaginaire, cette distance. De toute manière, de nouvelles formes de conscience politique s’ébauchent, dans une sorte d’oscillation encore très indéterminée entre le sentiment de responsabilité, lié à la proximité informationnelle, et le souci d’une conduite efficace, lié aux capacités effectives de décision.

Vertus du calcul

L’utilisation des calculateurs permet de soumettre à une analyse rigoureuse des problèmes d’une grande complexité que l’on devait autrefois se contenter de résoudre intuitivement, c’est-à-dire fort mal, ou que l’on ne pouvait même pas poser. Cela a de grandes conséquences dans l’ordre de la recherche scientifique et dans celui de l’action.

Dans le domaine de la recherche, on ne peut plus se contenter aujourd’hui de théories de type qualitatif ou d’hypothèses d’allure plus ou moins intuitive. Les instruments de calcul existent, et seul le calcul donne des résultats entièrement contrôlables. L’idéal scientifique, qui est celui d’une connaissance inter-subjectivement contrôlable, nous impose donc de recourir à des méthodes d’investigation qui donnent lieu à un traitement logique strict, c’est-à-dire qui s’expriment en définitive par le calcul. Le langage ordinaire est très imprécis et ne nous donne qu’une prise extrêmement grossière sur la réalité. Il suffit pour les nécessités de la vie courante ou pour l’expression de l’affectivité, car il s’agit là de domaines où l’on peut se contenter d’approximations assez lâches, où un degré élevé d’indétermination reste tolérable. Dès le moment où l’on se soucie de connaître avec précision, il faut substituer au langage ordinaire un langage qui ne soit pas simplement descriptif, mais qui ait un caractère opératoire: c’est précisément le cas des langages algorithmiques. De tels langages ne sont réellement utilisables que si l’on effectue jusqu’au bout les opérations qu’ils requièrent. Et celles-ci peuvent être fort longues. Les machines viennent à point nommé pour rendre effectivement réalisable le passage du langage ordinaire aux langages de type algorithmique.

Les calculateurs ouvrent aussi de nouvelles possibilités dans le domaine de l’action. On peut maintenant élaborer de vastes projets qui exigent des calculs à la fois extrêmement précis et extrêmement rapides: les vols spatiaux en donnent une illustration frappante. On peut également appliquer des instruments à la fois précis et complexes d’analyse et de prévision à la gestion des affaires humaines. Ainsi les techniques de la planification tendent à devenir de plus en plus efficaces. Cela pose d’ailleurs une question de portée extrêmement générale. Si les sociétés humaines arrivent à organiser la production des biens et des services nécessaires dans des conditions de plus en plus rationnelles, ne pourrait-on envisager, pour les temps à venir, un déclin progressif de la dimension politique, qui serait remplacée par une organisation purement technique? Il y a un contraste frappant entre le raffinement conceptuel et la rigueur qui caractérisent les démarches d’ordre scientifique et technique et le style sommaire et imprécis qui caractérise les démarches d’ordre politique. D’un côté, on se trouve en présence d’un niveau très élevé de rationalité; de l’autre, on rencontre des formes de la vie consciente liées en grande partie à l’affectivité, aux évidences intuitives, à la volonté de puissance. Il est vraisemblable que, même le jour où les instruments de la gestion des affaires publiques seront devenus hautement rationnels, les problèmes du pouvoir continueront à se poser, en même temps du reste que des problèmes de finalité. Il faudra toujours, sans doute, prendre des décisions, opérer des choix, car on ne peut tout faire à la fois et l’application d’une technique présuppose au moins le choix de certains critères. Il est donc permis de dire qu’il s’élèvera toujours des conflits relativement au mode de décision et à la distribution du pouvoir, relativement aussi aux critères du choix, c’est-à-dire aux finalités. Il est étrange que, jusqu’ici du moins, l’analyse rationnelle n’ait guère pu aboutir qu’à de vagues généralités dans ces domaines. On est amené à se demander s’il y a là une sorte de situation indépassable, qui marquerait les limites définitives de la rationalité, ou si l’on peut espérer que cette impuissance sera un jour surmontée et que la vie collective sera finalement entièrement rationalisée. Cela, en tout cas, ne se produirait que si l’on réussissait – hypothèse peu vraisemblable – à éliminer tout ce qui, dans l’être humain, est de l’ordre de la passion et de l’ordre des valeurs, ou si l’on réussissait à créer un instrument permettant de contrôler rationnellement les passions et les valeurs.

Mais qu’est au juste la rationalité ? L’expérience conduit à penser qu’une démarche est rationnelle dans la mesure où nous en contrôlons de façon effective toutes les étapes. Nous ne pouvons cependant nous former une idée a priori de la rationalité; nous pouvons seulement constater qu’elle se réalise concrètement pour nous de la manière la plus claire et la plus efficace dans les opérations algorithmiques. Nous avons connu pourtant, au cours de l’histoire, d’autres formes de rationalité, fondées à la fois sur l’argumentation et sur le recours à certaines évidences d’ordre sensible, intelligible ou réflexif. Faut-il considérer la rationalité opératoire comme la forme la plus accomplie de tout ce qui nous est apparu jusqu’ici comme démarche rationnelle, ou bien faut-il admettre qu’elle ne constitue qu’une dimension particulière de la rationalité, éminemment représentative sans doute mais de toute façon partielle? On est bien forcé de reconnaître que les différentes formes de l’évidence nous paraissent aujourd’hui quelque peu disqualifiées au regard de la clarté opératoire. Alors que l’évidence fait toujours appel à une réaction du sujet conscient en face d’une donnée (extérieure ou intérieure, peu importe), l’opération s’effectue par elle-même; nous n’avons qu’à reconnaître après coup son résultat. C’est du reste pour cette raison que l’on peut en confier la réalisation à une machine.

Devons-nous nous attendre à une intrusion progressive de la juridiction de l’opératoire dans tout le domaine humain, ou bien faut-il penser qu’il existe des régions de l’expérience inaccessibles au calcul, mais néammoins susceptibles, en principe, d’être explorées par des formes appropriées de pensée rationnelle, non algorithmique, dont nous ne connaissons encore que des expressions fort approximatives, mais qui, dans l’avenir, atteindront peut-être un degré de plus en plus élevé de rigueur? La cybernétique nous enseigne en tout cas que nous ne devons pas nous faire une idée étroite du calcul. Rien, pour l’instant, ne semble indiquer a priori que nous n’élargirons pas les possibilités du calcul de façon à couvrir progressivement tout ce qui nous est apparu comme rationnel et sans doute bien d’autres domaines encore, jusqu’ici demeurés impénétrables. Nous ne pouvons donc guère faire mieux que de tenter d’étendre aussi loin que possible le champ d’application des algorithmes, sans du reste pouvoir dire d’avance quelles en sont les éventuelles limites.

Automatisation et modification des tâches

Enfin, l’utilisation des mécanismes de régulation et des systèmes programmés permet d’automatiser un grand nombre d’opérations. Il en résulte un accroissement considérable de la productivité du travail et en même temps une modification profonde de beaucoup de tâches.

Disposant désormais de robots extrêmement puissants et diversifiés, l’homme devient capable de produire beaucoup plus par unité de temps de travail. Cet accroissement de la productivité pourra se traduire, d’une part, par un accroissement des biens et des services produits (et donc par une amélioration du niveau de vie général, en même temps du reste que par une modification du mode de vie, par exemple par la diffusion des appareils ménagers, des engins à moteur, etc.) et, d’autre part, par une diminution progressive du temps de travail (ce qui ouvre de vastes possibilités dans le domaine de l’éducation et de la culture). Mais l’automatisation entraîne la disparition de certaines tâches et par conséquent, dans l’immédiat, le chômage pour certaines catégories de travailleurs. Elle pose donc des problèmes sociaux considérables: il faut pouvoir assurer la réorientation de ceux qui perdent leur emploi, il faut pour cela leur donner une formation qui leur permette de s’adapter à un nouvel emploi. Il y a là à tout le moins un problème pour la période de transition au cours de laquelle l’automatisation s’installe et se répand. Mais on peut supposer que, dans l’avenir, les bouleversements technologiques deviendront la règle, que l’on connaîtra de façon régulière des transformations profondes de l’industrie et qu’il faudra résoudre de façon permanente des problèmes de réorientation. Cela exige sans doute que les individus reçoivent, au départ, une formation polyvalente qui leur permettra de se réorienter sans trop de difficultés au moment voulu. D’un autre côté, la création des outillages automatisés demande de vastes recherches préalables et aussi de grands investissements. Seules les entreprises de très grande dimension seront capables de soutenir les recherches nécessaires et d’assurer les investissements indispensables. Il en résultera une accélération du processus de concentration. Il faudra aussi, de plus en plus, que l’on fasse des prévisions à très long terme. Ici apparaît, à travers des motivations technologiques, la nécessité de la planification. Mais la puissance qui résultera de la concentration pose d’une manière renouvelée le problème du contrôle de la collectivité sur l’activité économique.

En même temps qu’elle entraîne ainsi toute une série de conséquences dans le domaine de l’organisation industrielle, l’automatisation modifie les conditions du travail humain. Elle permet de supprimer les tâches de pure routine et de les remplacer par des tâches de surveillance et de coordination. Corrélativement, elle introduit des solidarités d’un type nouveau dans les équipes de travail: à une solidarité en quelque sorte mécanique, fondée sur une division en tâches parcellaires pratiquement homogènes, se substitue une solidarité en quelque sorte organique, fondée sur une réelle complémentarité des tâches et de nature, par conséquent, à créer un fort sentiment de responsabilité collective. Cela peut faire apparaître de nouvelles formes de relation à l’égard de l’entreprise: un type de travail plus intégré et plus conscient doit entraîner un plus haut niveau de participation mais aussi, corrélativement, une modification du contenu des revendications qui porteront moins immédiatement sur le salaire et davantage sur les conditions économiques générales conditionnant la stabilité de l’emploi et les modalités du travail. Comme certains sociologues en ont fait l’hypothèse, l’automatisation, en resserrant les liens entre les travailleurs et l’entreprise, devrait naturellement conduire à des formes de revendication orientées vers la cogestion.

D’autre part, les nouveaux outils, en raison de leur haute complexité, demanderont un personnel très qualifié; les conditions de leur production entraîneront l’accroissement du nombre des techniciens, en même temps que leur diversification et leur spécialisation. Cela pose inévitablement des problèmes au niveau de la formation et exige peut-être une révision profonde de tous nos systèmes d’éducation. On est amené aussi à se demander s’il ne subsistera pas toujours un certain nombre de tâches n’exigeant guère de qualification et si, corrélativement, il n’existera pas toujours un certain nombre d’individus, limités par leur quotient intellectuel (indépendamment de toute influence du milieu), auxquels il ne sera pas possible de donner un niveau élevé de qualification technique et qui ne sauraient donc accomplir que des tâches non techniques. Le développement de l’automatisation risque ainsi de faire apparaître une nouvelle forme de tension sociale, entre une classe de techniciens très spécialisés et une classe de non-techniciens. À supposer que l’on puisse, grâce au niveau de la production et à une organisation appropriée, supprimer les inégalités sociales, peut-être certaines inégalités individuelles seront-elles irréductibles. Cela ne pourra manquer d’avoir des répercussions sur le plan du pouvoir: il est vraisemblable que le pouvoir se trouvera de plus en plus entre les mains de ceux qui, grâce à leur compétence technique, disposeront des informations nécessaires et seront effectivement capables de contrôler les appareils que la société se sera donnés. Dans ces conditions, comment pourrait-on sauvegarder les chances d’une démocratie véritable? Comme on l’indiquera plus loin, si elle pose des questions, la cybernétique nous permet aussi d’entrevoir, à ce même point de vue, des développements positifs.

2. L’homme et les algorithmes

L’humain mis en question

Le développement des machines à information aura certainement des conséquences profondes sur la vie sociale et sur la culture; on vient de formuler à ce sujet quelques questions et quelques hypothèses. Mais, comme ces conséquences restent en grande partie indéterminées, une certaine inquiétude se manifeste.

Dans le roman de Butler, qui fut écrit à l’époque de l’essor du darwinisme, il est question d’une théorie évolutive des machines, calquée sur les conceptions de Darwin relatives à la descendance des espèces. Il y est aussi question d’une guerre civile qui met aux prises, dans un pays imaginaire, partisans et adversaires des machines. Ces derniers, se fondant sur les idées d’un savant érewhonien qui apparaît comme une sorte de Darwin des machines, prétendent que le moment viendra nécessairement où les machines réduiront les hommes en esclavage, et que la seule manière d’éviter cette extrémité est de détruire les machines. La guerre se termine par la victoire des antimachinistes et par la destruction de toutes les machines d’un type plus avancé que les machines antiques, fondées sur le principe du levier. Toutefois, quelques spécimens sont épargnés et placés dans un musée dont l’accès est sévèrement réglementé.

La crainte exprimée par Butler et ressentie par un certain nombre de contemporains correspond peut-être, dans ses motivations profondes, à la prise de conscience d’une mise en question de la spécificité humaine. L’astronomie moderne a déjà fait perdre à l’homme l’idée que sa situation dans l’univers a un caractère privilégié. La cybernétique semble suggérer que les opérations qu’il juge lui appartenir en propre n’ont rien de spécifique. Si les machines semblent se substituer à l’action humaine, celle-ci se verra contrainte de se redéfinir. Et, pour cela, il faudra que l’homme se fasse lui-même machine, parle le langage des machines, organise son action selon des schémas utilisables par des machines, définisse ses projets en fonction des propriétés des machines et prenne ses décisions conformément à leur verdict.

D’autre part, si les machines calculatrices réalisent des opérations qui apparaissent comme typiques de la pensée, ne doit-on pas en conclure que la pensée est de nature cybernétique, qu’il n’y a donc pas de différence décisive entre l’homme et la matière, que la conscience est un vain mot? Cette interrogation pourrait être illustrée par un apologue très significatif dû à Turing. Imaginons le jeu suivant: une personne A est enfermée dans une chambre et communique, par l’intermédiaire d’un messager, d’une part avec une autre personne B et d’autre part avec une machine M, placées eans des chambres différentes numérotées 1 et 2. Le joueur A ne sait pas dans quelle chambre est la machine; le jeu consiste précisément, pour A, à découvrir lequel de ses interlocuteurs est la machine, c’est-à-dire, pratiquement, dans quelle chambre se trouve la machine. Il pose des questions qu’il adresse soit à la chambre no 1 soit à la chambre no 2, et les réponses qu’il reçoit portent seulement l’indication de la chambre dont elles proviennent. La stratégie du joueur B est d’essayer de mettre A sur la bonne voie. La machine M, au contraire, est programmée de telle sorte que sa stratégie est d’essayer d’induire A en erreur: elle doit donc éviter de donner des réponses qui permettraient de l’identifier de façon directe, mais il lui faut aussi se garder de donner l’impression, par des réponses trop bien étudiées, qu’elle cherche à tromper. Le problème est de savoir quel est le temps minimal dont A aura besoin pour démasquer la machine. Cela dépend naturellement du programme de la machine. Pour un programme donné, on peut faire une estimation de la probabilité qu’il y a pour que la machine tienne le joueur en échec pendant au moins x minutes, x croissant naturellement avec la complexité du programme. Au moment où il présenta son argument, en 1950, Turing soutint qu’il s’agissait là simplement d’une question de capacité d’information et que, au train où allaient les choses, on aurait dans l’espace d’une cinquantaine d’années des machines capables de tenir en échec n’importe quel joueur pendant au moins cinq minutes avec une probabilité très élevée.

Les possibilités de la représentation algorithmique

Turing veut nous persuader que la machine est capable d’accomplir des opérations très complexes, dans lesquelles il y a place non seulement pour «l’esprit de géométrie», mais aussi pour l’«esprit de finesse». On pourrait comprendre son argumentation de manière simpliste, comme si elle consistait à invoquer une sorte d’essence de la machine et à prouver, à partir de là, que n’importe quelle opération mentale, si complexe soit-elle, tombe dans le champ d’extension de cette essence. En réalité, il s’agit simplement de suggérer que les possibilités de représentation d’opérations complexes au moyen d’opérations élémentaires (par l’intermédiaire d’une programmation convenable) n’ont pas de limites assignables a priori. Mais cela ne prouve pas que la machine peut faire absolument tout ce que fait l’esprit humain. Comme le fait remarquer Popper, quand on explique que la machine peut accomplir telle opération, apparemment propre à l’esprit humain, ou bien on énonce une affirmation gratuite, ou bien on doit donner une définition précise de cette opération; mais une telle définition est déjà un schéma de programme. L’affirmation selon laquelle un tel programme peut être mis en œuvre par une machine est alors presque tautologique. Ce que l’argument de Turing nous indique, par conséquent, c’est que la correspondance entre la pensée et la machine vaut très exactement pour les opérations susceptibles d’être décrites avec précision.

Le problème est de savoir si toutes les opérations de la pensée peuvent être décrites, c’est-à-dire exprimées dans un langage possédant un sens, et, en cas de réponse affirmative, si elles pourraient toutes être décrites dans un langage précis, susceptible précisément d’être traduit sous une forme algorithmique. On voit difficilement comment répondre à cette question: dans quel langage évoquer d’un seul coup toutes les possibilités de la pensée, examiner si elles sont exprimables dans un langage et, le cas échéant, dans quel type de langage? Mais, d’autre part, on ne voit pas non plus comment on indiquerait à l’avance les limites de la représentabilité algorithmique. Cela supposerait que l’on ait, d’une part, une caractérisation complète des possibilités de la pensée, et, d’autre part, une caractérisation complète de celles des algorithmes. Et, de nouveau, on doit demander dans quel langage il serait possible d’exprimer pareilles caractérisations.

À vrai dire, Turing lui-même est l’auteur d’un célèbre théorème qui semble indiquer, sur un point au moins, une limite de la représentation algorithmique. Il a développé une théorie abstraite des machines, qui repose sur un concept très général, celui de machine non circulaire. Une telle machine est un dispositif permettant de calculer les nombres successifs d’une suite numérique (éventuellement infinie) de façon effective, c’est-à-dire de façon à donner un résultat déterminé au bout d’un temps fini. En somme, ce concept constitue une représentation formelle de la notion de «procédé effectif». Turing montre qu’il n’est pas possible de définir une machine non circulaire permettant de «reconnaître» si une machine donnée est une machine non circulaire, c’est-à-dire si un programme donné d’opérations a ou n’a pas un caractère effectif. C’est montrer qu’il n’est pas possible de caractériser de façon effective (algorithmique) la classe des procédés effectifs (algorithmiquement représentables).

Quel est au juste le sens de ce résultat? Il ne nous apprend pas qu’il y a des problèmes que la machine serait incapable de résoudre et que la «pensée», elle, pourrait résoudre. Il montre qu’il y a des problèmes insolubles, autrement dit des problèmes qui n’ont pas de sens. Se proposer de trouver un procédé effectif pour déterminer si un programme (quelconque) constitue un procédé effectif, c’est se proposer une tâche logiquement impossible, c’est-à-dire contradictoire. D’autre part, en nous proposant une définition rigoureuse de la notion de «procédé effectif», Turing nous aide à mieux situer la frontière entre «procédés effectifs» et «procédés non effectifs». On a, du reste, proposé d’autres formulations de la notion d’effectivité, équivalentes à celle de Turing. La question de savoir si ces différentes formulations peuvent être considérées à bon droit comme des représentations adéquates de la notion d’effectivité ne peut être considérée comme définitivement tranchée. De toute manière, on ne peut démontrer cette adéquation, puisque cela supposerait que l’on ait une définition précise de la notion d’effectivité, ce qui est précisément l’objet de la formulation proposée. Aussi ne s’agit-il que d’une hypothèse (dite thèse de Church). On peut donner des arguments qui prêtent à cette hypothèse un certain degré de plausibilité, mais il n’est pas exclu que l’on propose un jour une formulation de la notion d’effectivité qui paraisse plus adéquate que les formulations actuellement reçues.

Quoi qu’il en soit, la pensée mathématique utilise des raisonnements qui ont un caractère non constructif, et donc non effectif. Mais cela ne signifie pas que nous aurions là une région de la pensée qui échapperait par définition à la juridiction des algorithmes. Nous devons, en effet, dans les démarches de la pensée mathématique, distinguer deux niveaux: celui des objets et celui des actes. Au niveau des objets, c’est-à-dire des entités dont s’occupent les mathématiques, on trouve des notions qui ne sont pas définies constructivement. De même, on peut fort bien étudier des systèmes logiques qui, d’une manière ou d’une autre, ne répondent pas aux critères habituels d’effectivité, par exemple des systèmes dans lesquels la catégorie des formules admissibles n’est pas définie constructivement, ou dans lesquels la notion de déduction n’est pas formulée d’une manière constructive. Mais les opérations de pensée par lesquelles nous traitons de pareils objets mathématiques ou logiques doivent nécessairement avoir un caractère effectif et, par conséquent, il faut s’attendre à ce qu’il soit possible de les représenter par des algorithmes appropriés.

3. Une nouvelle image de l’homme

La question

Les machines à information existantes, surtout les grands calculateurs, présentent indubitablement des analogies avec certains aspects du comportement humain, surtout avec les formes logiques de ce comportement (solution de problèmes de type mathématique ou logique, conduites de type stratégique, établissement de diagnostics, etc.). D’autre part, les développements théoriques de la cybernétique nous laissent entrevoir que les possibilités sont immenses. C’est ainsi qu’on peut concevoir des systèmes cybernétiques capables non seulement d’apprendre (c’est-à-dire d’intégrer à leur mémoire les résultats obtenus par leur comportement antérieur) mais même de transformer eux-mêmes leur propre programme, conformément à certains critères de «progrès» sur la base des données apprises. Il serait vain de prétendre pour autant avoir «réduit» tout le comportement humain à des propriétés cybernétiques. D’une part, les analogies fournies par la cybernétique ne concernent que la structure logique des opérations, non leur mode concret de réalisation. D’autre part, et surtout, il n’est pas certain que le phénomène humain soit de part en part de nature opératoire. Cependant, on l’a déjà remarqué, il est impossible d’assigner à l’avance une limite aux analogies cybernétiques. Dans ces conditions, si l’on s’interroge sur la portée de la cybernétique, le genre de question utile qu’il convient de se poser ne concerne pas les limites de la cybernétique, mais sa signification pour la compréhension du comportement humain.

On pourrait envisager la signification de la cybernétique selon deux points de vue (au moins): d’une part, en considérant les systèmes cybernétiques comme des systèmes d’action automatisée et, d’autre part, en les considérant comme des systèmes de traitement logique de l’information.

Loi des choses et liberté

Quelle est la signification de l’action automatisée pour l’être humain? Dans sa Politique , Aristote tente de justifier l’esclavage sur la base d’une distinction entre les activités caractéristiques des «vrais hommes» qui sont les citoyens, et les activités de travail. Les activités des citoyens sont celles de la vie politique (y compris la guerre) et celles de la vie spéculative (recherche du savoir et de la sagesse qu’il procure). Le travail, considéré comme une activité de forme purement répétitive, indigne des «vrais hommes», doit être abandonné aux membres de l’espèce auxquels la nature n’a pas donné une participation entière à la vie raisonnable et qui, incapables de se conduire par eux-mêmes, doivent obéir à des maîtres. Aristote ajoute cependant: «Si chaque instrument pouvait, par ordre ou par pressentiment, accomplir son œuvre propre, si, pareilles aux statues légendaires de Dédale ou aux trépieds d’Héphaistos, qui, au dire du poète, «pouvaient d’eux-mêmes entrer dans l’assemblée des dieux», les navettes tissaient d’elles-mêmes et les plectres jouaient de la cithare, alors les maîtres d’œuvre n’auraient nul besoin de manœuvres, ni les maîtres d’esclaves.» Cette remarque donne le vrai sens de sa démarche: en invoquant la nature, Aristote essaie simplement de trouver une justification à une pratique sociale dans laquelle la société antique a cherché une solution au problème du travail. Le problème vient de ce que le travail est nécessaire mais en même temps fastidieux. Et il est fastidieux dans la mesure où il est répétitif.

Nous pourrions réinterpréter la classification d’Aristote en distinguant deux espèces d’activités: celles qui sont réellement originales et celles qui sont purement répétitives. La notion d’action automatisée donne un contenu précis à cette idée d’action répétitive. Dans la mesure où nous faisons effectuer les actions de ce genre par des automates, nous nous en libérons. Sans doute ne pourrons-nous pas supprimer toutes les opérations répétitives, mais nous pourrons en tout cas les réduire. Ainsi s’annonce une société d’un type nouveau, où l’on réussira à supprimer, au moins dans une large mesure, la division entre travail intellectuel et travail manuel.

Sans doute y aura-t-il toujours une séparation entre la fonction d’invention et la mise en application des inventions. Mais l’utilisation d’une invention peut s’accompagner d’une véritable compréhension. De toute façon, il y a une proximité beaucoup plus grande entre invention et utilisation qu’il n’y en a entre activité intellectuelle et activité purement manuelle. Dans une société libérée des tâches purement répétitives, de nouvelles formes de vie collective apparaîtront, celles-là mêmes dont la description aristotélicienne des citoyens constitue comme le pressentiment. La vie aristocratique, dans les sociétés antiques, a été, semble-t-il, une sorte d’image anticipatrice (soumise à de graves limitations, surtout en raison de son application à un petit nombre d’individus, et en ce sens fort inadéquate) d’une forme de vie appelée à devenir celle de tous dans les sociétés de l’avenir. Cette forme de vie, on peut la caractériser par le terme de souveraineté. Certes l’automatisation n’est pas une condition suffisante de la souveraineté, mais sans doute en est-elle une condition nécessaire. Ce qui est important, ce n’est pas tant le niveau de vie déterminé par la masse des biens consommables, mais le mode de vie. La vie souveraine, ce n’est pas l’exercice d’une domination (l’aspect de domination marque précisément la limite de l’anticipation antique), mais la vie libre. Libre vis-à-vis des contraintes naturelles, mais aussi des contraintes sociales dans ce qu’elles ont d’arbitraire et de non compréhensible.

La contrainte, c’est la loi de la chose. La liberté est précisément ce qui, de soi, échappe à cette loi. Cependant, dans une société où une grande partie du travail sera faite par des machines, il y aura forcément des contraintes qui seront dues à la machine. Ne retrouvera-t-on pas sous une forme nouvelle la loi de la chose? Il faut ici remarquer que les contraintes de la machine sont fort différentes des contraintes naturelles, comme des contraintes sociales dans la mesure où celles-ci ressemblent aux contraintes naturelles. C’est qu’elles sont de nature rationnelle, posées par l’homme, donc parfaitement compréhensibles et intégrables. La vraie liberté n’est pas l’absence de contrainte, mais la maîtrise des contraintes; une contrainte que l’on se donne à soi-même n’est nullement une négation de la liberté. L’automate représente une contrainte intégrable, en ce sens que, loin de limiter la liberté, il lui donne un champ d’action effectif. Le véritable jeu de la liberté consiste à poursuivre des buts dans des champs de contrainte qui constituent pour elle un appui et lui donnent une structuration. On le voit bien dans le cas du sport: on se donne des règles précisément pour procurer à l’action souveraine du jeu un espace où elle peut se déployer de manière réelle. La machine est appelée à étendre considérablement nos possibilités de ce point de vue. L’action automatisée s’autonomise, elle est assumée par des automates distincts de l’être humain; par là, elle écarte l’obstacle principal qui s’oppose à l’épanouissement de la vie libre et, en même temps, elle donne à celle-ci l’assise réelle dont elle a besoin pour se déployer.

Traitement de l’information et langage humain

Il faut maintenant considérer les systèmes cybernétiques en tant que systèmes de traitement de l’information et se demander quelle est leur signification de ce point de vue. On pourrait utilement ici opérer un rapprochement entre langage et système cybernétique. Le langage peut en effet être considéré comme une organisation complexe qui présente des analogies avec une machine. Il est constitué à partir d’un nombre fini d’éléments simples, les phonèmes; ceux-ci sont assemblés en mots et les mots sont assemblés en phrases selon des règles définies (qui restent en grande partie non explicites). L’apprentissage du langage se compare à l’apprentissage du maniement d’une machine. Et il s’agit bien d’une machine à information. Par le langage nous emmagasinons des informations: les mots, par exemple, représentent un certain découpage de l’expérience qui correspond à une démarche analytique arrêtée à un certain niveau. Le langage nous permet, du reste, par divers procédés (identification des catégories syntaxiques et sémantiques, référence au contexte, associations, repérage des racines, etc.) de retrouver les informations véhiculées par les mots et les phrases qui nous sont présentés et, inversement, d’inscrire les informations à transmettre dans des mots et des phrases convenables. En somme, il s’agit là d’opérations de codage et de décodage et également de procédés de sélection qui permettent de retrouver dans la «mémoire» des informations répondant à certaines stipulations. Par le langage nous transformons aussi des informations. L’exemple le plus clair est celui de l’argumentation. Mais on pourrait aussi invoquer les procédés poétiques ou romanesques qui réussissent à créer des informations nouvelles grâce aux seules ressources du langage.

Popper a proposé de distinguer dans le langage quatre fonctions, d’ailleurs hiérarchisées. Il y a d’abord deux fonctions que l’on trouve chez l’animal aussi bien que chez l’homme: la fonction expressive (le langage fournit des symptômes, relatifs à des états organiques) et la fonction de signal (le langage déclenche des réactions appropriées dans un organisme étranger). Il y a ensuite deux fonctions que l’on ne trouve, semble-t-il, que chez l’homme, du moins sous leur forme accomplie: la fonction descriptive (formulation de propositions relatives à des états de choses et susceptibles d’être vraies ou fausses) et la fonction argumentative (mise à l’épreuve des propositions descriptives et rejet de celles qui paraissent inadéquates). Le rapport de la fonction argumentative à la fonction descriptive est un rapport de contrôle: les procédures argumentatives s’efforcent en somme de faire le tri parmi les propositions fournies par la fonction descriptive. Le langage nous permet ainsi de procéder par essais et erreurs: la fonction descriptive suggère, à titre d’essai, un certain nombre de propositions qui ont un caractère hypothétique et la fonction argumentative élimine les hypothèses non pertinentes. On retrouve ici ce qui fait l’essentiel de la méthode scientifique et aussi, du reste, l’essentiel du mécanisme de l’évolution.

Mais le langage se différencie en langages poétique, politique, philosophique, scientifique, etc. Au fur et à mesure qu’il se perfectionne, le langage scientifique, dans sa partie théorique du moins, a recours aux systèmes formels. Un système formel est un ensemble de règles permettant de former, de façon canonique, des expressions ayant valeur de propositions et de prélever, parmi ces propositions, une classe particulière, formée de propositions considérées comme vraies, les théorèmes du système. (Par exemple, on donnera une liste de propositions admises comme vraies, les axiomes, et on donnera des règles de déduction permettant d’obtenir, à partir de propositions vraies, d’autres propositions vraies.) Une théorie scientifique, au sens strict, est un système formel muni de règles d’interprétation, qui permettent d’associer aux propositions (de la théorie) une signification relative à un domaine d’objets déterminé. Or la notion de système formel nous approche de la cybernétique. Le langage ordinaire est encore porté par des intentions significatives de nature subjective. Le système formel opère par lui-même, en vertu de ses règles. Les problèmes dont il traite peuvent être résolus d’une manière entièrement objective, sans référence aux significations vécues.

Les propriétés des systèmes formels font mieux comprendre la véritable nature du langage. En isolant pour ainsi dire la composante purement objective et algorithmique du langage, elles invitent à établir une séparation tranchée entre langage et parole. Le langage, au sens strict, est un système de règles permettant d’engendrer des expressions significatives de différents niveaux de complexité; ces règles sont en grande partie sous-jacentes, mais il est possible, en principe, de les dégager, ce que précisément la linguistique s’emploie à faire. La parole est, en revanche, une activité subjective qui met en œuvre, grâce au langage, une intention signifiante. Le langage sert d’appui à la parole et cet appui est d’autant plus efficace que le langage, comme système, est plus complexe. Et la parole, de son côté, insuffle en quelque sorte la vie au langage, fait passer à travers lui le courant du sens. Les deux éléments sont du reste inséparables. Sans le langage, nous n’aurions affaire qu’à un sens global, unique, et donc parfaitement confus. En réalité, la vie du sens est différenciation et le langage est la représentation même de cette différenciation. D’autre part, sans la parole, le langage se réduirait à une forme vide; il ne serait pas porteur de signification.

Analysant le rôle du langage dans la vie consciente, Popper introduit la notion de système exosomatique. Il entend par là les systèmes informatifs, tels que les théories scientifiques ou le langage ordinaire, qui sont produits par l’être humain, mais qui lui deviennent en quelque sorte extérieurs et possèdent une réelle autonomie de fonctionnement. Selon lui, la conscience exerce sur l’organisme un contrôle souple, de nature «plastique», c’est-à-dire un contrôle comportant des mécanismes de rétroaction réciproque; elle est elle-même contrôlée de cette manière par les systèmes exosomatiques. Une excellente analogie nous est fournie, selon Popper, par la bulle de savon, qui est constituée de deux systèmes: celui des molécules d’air enfermées dans la bulle et celui des molécules de savon formant l’enveloppe de celle-ci. Ces deux systèmes se contrôlent mutuellement: d’une part, la tension superficielle du savon empêche les molécules d’air du système intérieur de s’échapper, maintenant donc ce système, et, d’autre part, l’équilibre entre la pression à l’intérieur et la pression à l’extérieur empêche la pellicule de se résoudre en gouttelettes.

Ces suggestions vont nous servir à décrire le type de relation qui s’instaure entre l’homme et la machine. En somme, la machine, en tant qu’instrument de traitement de l’information, est une sorte de langage objectivé; elle est un produit exosomatique. Il faut cependant maintenir une distinction entre langage naturel et langage artificiel. Le langage naturel est une mise en œuvre du corps vécu et prolonge en quelque sorte la puissance signifiante du corps lui-même considéré comme expression. Aussi est-il impossible de séparer en lui la parole et ce qui la porte, la signification et le système informatif qui lui donne sa forme concrète. Le langage artificiel, en revanche, dont le système formel est la réalisation la plus accomplie, est un langage entièrement extériorisé, isolé du corps vécu, et par le fait même séparé de la source du sens. La machine doit évidemment être mise dans la même catégorie que le langage artificiel; elle constitue en somme une extension du langage naturel et le passage de celui-ci au langage des machines exige du reste une traduction, conformément à un codage approprié. Il y a cependant entre langage naturel et langages artificiels une ressemblance fonctionnelle: de même que notre langage naturel a une fonction de contrôle à l’égard de notre activité consciente, ainsi les différentes espèces de langage artificiel, y compris celui des machines, et donc les machines elles-mêmes, nous procurent des instruments extrêmement efficaces de contrôle.

Les machines à information renforcent ainsi considérablement les possibilités d’adaptation de l’homme aux situations complexes. Le contrôle qu’elles peuvent exercer comporte, comme le suggère l’analogie du langage, deux aspects: d’une part, elles proposent des solutions et, d’autre part, elles éliminent les mauvaises solutions. Mais il s’agit bien d’un contrôle «plastique»; la machine nous aide à orienter notre comportement dans le sens le plus efficace, elle ne nous impose pas ses solutions. Il y a une action réciproque: la conscience agit sur la machine (en concevant de nouveaux programmes) et la machine agit sur la conscience (à travers la liberté, du reste, et non malgré elle). Ce contrôle plus efficace représente, par rapport au langage naturel et même par rapport aux langages artificiels non encore algorithmisés, un nouveau palier. Dans la mesure où l’action rationnelle est une action qui se mesure elle-même (en fonction de critères qu’elle s’impose à elle-même), cette émergence de nouvelles formes de contrôle représente une extension du champ de l’action rationnelle.

Vers une solidarité opérationnelle

La cybernétique nous oblige à considérer l’action dans une perspective beaucoup plus vaste que celle de l’action individuelle. L’automatisation crée un réseau, les machines sont interconnectées et relient des individus de plus en plus nombreux. Le contrôle joue donc non seulement sur le plan du comportement individuel, mais aussi au niveau des régulations collectives. Cela signifie probablement la disparition de la notion de «grand individu» (au sens de héros historique) et l’avènement de nouvelles formes de vie sociale, fondées sur la collaboration, la complémentarité, l’ajustement réciproque de type rationnel. On peut faire l’hypothèse que le lien social, dans une civilisation ayant la cybernétique pour base, reposera non plus sur l’affectivité, le sentiment d’appartenance à une communauté, la médiation des symboles, mais sur la réalité de l’échange, la solidarité opérationnelle, la coresponsabilité effective. On entrevoit qu’une convergence existe peut-être entre le développement de la cybernétique et la réalisation d’une démocratie de type rationnel. Dans une telle forme de vie sociale, l’ancienne notion d’officium reprendrait peut-être un nouveau contenu: ce n’est ni en tant que porteur d’une essence affective commune, ni en tant que fonction abstraite dans un système que l’individu est appelé à prendre sa place dans la totalité sociale, mais en tant que porteur d’une mission, laquelle, articulée organiquement sur des missions complémentaires, lui confère une responsabilité réelle et en même temps l’insère dans un réseau effectif de solidarités.

Si les systèmes cybernétiques ne font que prolonger, sous forme exosomatique, les systèmes de contrôle élaborés déjà au niveau du langage naturel, il reste à se demander quel peut être le type de réalité qui appartient en propre à ce qu’on appelle la conscience. Celle-ci n’est-elle à son tour qu’un système cybernétique chargé de contrôler l’organisme, ou bien constitue-t-elle, en tant que source de signification, liée d’ailleurs au corps vécu, une réalité d’un autre type? Une phrase de Pascal vient à l’esprit: «La machine arithmétique fait des effets qui approchent plus de la pensée que tout ce que font les animaux; mais elle ne fait rien qui puisse faire dire qu’elle a de la volonté, comme les animaux.» Cela nous suggère que l’essence de la conscience n’est pas la pensée, mais un dynamisme fondamental qui se manifeste aussi bien dans la passion et dans les différentes formes du désir que dans la volonté proprement dite, dynamisme qui anime de l’intérieur la pensée elle-même.

Ce dynamisme, on pourrait le nommer affectivité, à condition d’entendre ce terme en un sens extrêmement étendu, comme signifiant à la fois la capacité d’être affecté, la capacité de dépasser l’immédiat et de se porter, au-delà de tout donné, vers un horizon infini, qui est celui de la vie libre, et la capacité de s’affecter soi-même des déterminations qui doivent médiatiser l’avènement de cette vie. Par rapport à l’affectivité ainsi entendue, la pensée n’est elle-même qu’une médiation. Cela signifie qu’elle comporte à la fois un aspect d’intériorité, en tant qu’elle est elle-même un dynamisme inventif, une puissance signifiante, une force organisatrice du sens, et un aspect d’extériorité, en tant qu’elle est capable de s’objectiver sous forme de systèmes pouvant se régler eux-mêmes et fonctionner de manière autonome. C’est à l’intérieur même de la pensée que nous devons retrouver l’articulation de la parole et du langage dont il a été question plus haut; cette articulation, c’est aussi celle du sens et du système, de la signification et de l’information (au sens objectif), de la compréhension et de l’effectuation opératoire, de l’intention et du geste, de la puissance du dépassement et de l’objectivation médiatisante. En nous permettant d’explorer les possibilités de la pensée considérée selon sa face objective, la cybernétique nous invite, d’une part, à saisir plus exactement les conditions de l’action efficace et de la compréhension effective et, d’autre part, à mieux situer, en deçà même de l’articulation entre la conscience incarnée et ses produits, ce qui fait l’originalité irréductible de la vie consciente, le mouvement prospectif, intégrateur et infinitisant de l’affectivité, l’affirmation souveraine de ce que Pascal appelait la volonté.

Encyclopédie Universelle. 2012.

Игры ⚽ Нужна курсовая?

Regardez d'autres dictionnaires:

  • CYBERNÉTIQUE — LE TERME «cybernétique» a été forgé à partir du grec kubernêsis , qui signifie, au sens propre, «action de manœuvrer un vaisseau», et, au sens figuré, «action de diriger, de gouverner». Utilisé pour la première fois, semble t il, par Ampère pour… …   Encyclopédie Universelle

  • CYBERNÉTIQUE - Principe — Norbert Wiener définissait la cybernétique comme l’«étude de la commande et de la communication chez l’animal et dans la machine». Les progrès accomplis dans les domaines de l’automatique et de l’informatique ont conduit à adopter une définition… …   Encyclopédie Universelle

  • FORME — L’histoire du concept de forme et des théories de la forme est des plus singulières. Nous vivons dans un monde constitué de formes naturelles. Celles ci sont omniprésentes dans notre environnement et dans les représentations que nous nous en… …   Encyclopédie Universelle

  • Andre Green — André Green Pour les articles homonymes, voir Green. André Green (né le 12 mars 1927 au Caire) est un psychanalyste français d origine egyptienne, l une des références contemporaines majeures dans son domaine. Psychiatre de formation, après des… …   Wikipédia en Français

  • STRUCTURE DANS LES SCIENCES HUMAINES — Les sciences humaines utilisent de plus en plus couramment la notion de structure. Cependant, la signification de celle ci est loin d’être claire et donne souvent lieu à de faux problèmes. Par ailleurs, le mouvement structuraliste est, semble t… …   Encyclopédie Universelle

  • MODÈLE — Le langage de la philosophie aiderait peu à éclairer l’origine de la notion de modèle, qui a reçu un emploi très large dans la méthodologie des sciences. Cette origine est technologique: le modèle est d’abord la «maquette», l’objet réduit et… …   Encyclopédie Universelle

  • information — [ ɛ̃fɔrmasjɔ̃ ] n. f. • 1274; lat. informatio I ♦ Dr. Ensemble des actes qui tendent à établir la preuve d une infraction et à en découvrir les auteurs. ⇒ instruction (préparatoire). Ouvrir une information. Information contre X. Information… …   Encyclopédie Universelle

  • Affect (Psychanalyse) — Sommaire 1 De l’affect à la limite dans les structures cliniques chez André Green 2 L affect dans l œuvre freudienne 3 L affect dans la littérature psychanalytique post freudienne …   Wikipédia en Français

  • Affect (psychanalyse) — Pour les articles homonymes, voir Affect (homonymie). Pour Sigmund Freud, la pulsion se divise en affect et en représentation : l affect est une impression, un sentiment, une qualité émotionnelle alors que la représentation est une idée ou… …   Wikipédia en Français

  • Théorie de l'attachement — Traduction à relire Attachment theory → …   Wikipédia en Français

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”